查看原文
其他

机器人会梦见电子羊吗?| 如何看待AI的“人性”

华夏 知识分子 2022-04-27

pixabay.com


机器是否能够思考?如何看待机器的“人性”和“灵性”?如何看待机器的道德地位?这些问题是不是也让你感到困惑?最近,《知识分子》和北京大学哲学系的刘哲博士,复旦大学哲学系的徐英瑾博士和王球博士,以及上海交通大学哲学系的蔡文菁博士聊了聊 AI 的“人性”和“灵性”。



撰文 | 华   夏

责编 | 陈晓雪


●         ●         ●


如何判断机器是否能够思考?“图灵测试”是一个广为人知的方案。这个方案由图灵在1950年提出,用来判断机器能否思考。被测机器和真人一起,通过语言的方式(例如通过打字)和人类“考官”自由交流,如果考官无法分辨出被测对象是机器还是真人,则机器就通过了图灵测试。

 

图灵测试的核心思想类似药物研究领域的“盲测”:为了判断某种药物是否有疗效,科学的方法主要不在于论证药物背后的理论和机制有效,而在于通过“双盲测试”,在临床环境下获得统计上显著的药效证明。对于“机器是否能思考”这个问题,“图灵测试”避免了不断争论“智能”或者“思考”的本质和机制,而给出了一种基于现象的,纯属观察的,可操作的定义。

 

迄今为止,还没有机器能通过不限制谈话领域的图灵测试。然而,如果不把图灵测试限制于自由交谈,机器的复杂行为则已经能“骗过”人类。据澎湃报道,自2017年2月起,微软开发的 AI 系统“小冰”,在天涯、豆瓣、贴吧、简书四个平台上使用了27个化名发表诗歌作品,获得大量跟帖评论的同时,几乎没有被察觉出非人为所作。

 

基于一张图片,小冰就能“触景生情”地写出一首朦胧的中文现代诗: 

 

 
可以说,微软小冰在“写现代诗”这个领域,已经表现出了和人类相近的能力。在大众的直觉里,诗歌写作这个领域和方程组求解不同,更能展现某种独属于人类的情感和创造力。在小冰的真实身份没有披露之前,读者不会怀疑这些诗句是一个多情的人儿所写。可以想像,敏感的读者甚至会对诗人动情。

 

小冰不是孤例。近年来,AI 系统已经越来愈多的领域表现得“富有人性”。2017年1月,谷歌 DeepMind 开发的人工智能程序 AlphaGo 化名 Master 重出江湖,并在各大围棋论坛上与中日韩顶尖选手过招,斩获 60 场不败的战绩。其手下败将包括“棋圣”聂卫平,日韩顶尖棋手井山裕太,朴廷桓,以及曾经高调宣称一定能下赢 AlphaGo 的世界排名第一的中国棋手柯洁。

 

曾负于 AlphaGo 的欧洲围棋冠军樊麾对新华社记者说“如果没有人告诉我,我一定不知道它是电脑,它太像人了。它一定是在思考。按照人的说法,它应该有棋风吧。”聂卫平也评价到:“阿尔法狗的大局观远胜人类,如果差距拉近一些可能还有胜负。”柯洁也在自己的社交媒体发言:“昨晚辗转反侧,不想竟一夜无眠。人类数千年的实战演练进化,计算机却告诉我们,人类全都是错的。我觉得,甚至没有一个人沾到了围棋真理的边。”

  
 

对于和 AlphaGo 对弈过的棋手来说,AlphaGo 更像是一位“得道高僧”,而非算法和程序。“棋风”、“大局观”,都是用来形容人类棋手的词语。当这些概念被用来形容一个围棋程序,到底意味着什么?一个程序,又如何懂得 “围棋真理”?

 

但我们可以看到,无论是否知道微软小冰和 AlphaGo 背后是程序,是否理解它们背后的算法原理,人们都从这些AI 的表现中感受到了某种“人性”,甚至是“灵性”。现代人显然不会因为汽车跑得比人快而感慨万千,也不会因为计算器求平方根比人快而惊叹。但我们确实从当前的一些AI应用中感受到了超越一般意义上的工具和机器的特性。

 

事实上,大众以拟人化的方式理解 AI 应用的现实,已经被一些哲学家视作伦理上的新挑战。在由北京大学哲学系副主任刘哲教授主导编撰的《中国机器人伦理标准化前瞻(2019)》中,“去人类中心主义”立场被放在了核心位置。其中的重要考量,即是因为当下的许多 AI 应用已经超越了普通的工具和机器,而越来越被人类当作“伙伴”,获得了人类丰富的情感联结,也越来越容易被当成道德主体去考量。传统的伦理考量是人类中心主义的,往往只把人类行为作为价值的载体,自然、动物和人造物的活动本身,无所谓道德与否。当下,这种传统考量已经显露不足。

 

我们应该如何看待 AI 呈现出的这种“人性”和“灵性”?

 


1


当前的 AI 真的具备一些“人性” 吗?

 

如果从当前基于机器学习原理和大数据训练 AI 技术应用来看,答案是否定的。

 

在复旦大学哲学系从事多年人工智能哲学研究的徐英瑾教授看来,人类智能的关键是领域切换的能力。AlphaGo 的下棋能力超越了所有的人类,却仍然无法评价自己刚刚下完的一盘棋——而这是最差的棋手也能做到的事情。复旦大学哲学系教授王球也表示,相比于开发出AlphaGo这样的在下棋层面超越一切人类的 AI 应用,开发出智能相当于乌鸦的 AI 系统,才会让 AI 研究者更加兴奋,因为乌鸦能够自己选择要去解决的问题。

 

当前基于机器学习的 AI 应用,其基本思路大致是这样:建立一个 “机器”(就是通常说的 “模型”),输入特定的值后,可以输出我们想要的值。例如,谷歌翻译就是这样一个机器,输入中文,它可以输出合理的英文。

 

显然,这样的机器需要非常复杂精巧。不过,所谓机器学习,就是说并不需要工程师去设计这个机器的一切小零件和小齿轮,而是把这个机器的整体结构设计好之后,灌入已经配对好的输入和输出数据,由机器自己去把这些小齿轮调节合适。“学得好不好”,需要一个标准(即误差函数)。“学习”的过程就是机器自己调整这些小齿轮,让一个又一个的输入进入机器后,其输出和理想的输出尽量接近,即误差函数可能小的过程。

 

神经网络中,每一个“神经元”都是一个小齿轮,需要被调整到合适的状态(权重)playground.tensorflow.org

 

机器学习本身已经存在了半个多世纪,但最近的技术突破在于人们找到了让“多层神经网络”这种拥有巨量小齿轮的复杂机器的小齿轮们达到理想状态的办法,俗称深度学习。在过去十几年中 AI 的重要突破(也是开启最近一波人工智能浪潮的技术突破),例如语音识别和机器翻译,和精确性足以用于支付和解锁手机设备人脸识别,都是基于这项技术。

 

我们或许常常听到,深度学习技术是一个“黑箱”,仿佛其中有某种神秘的力量。但事实上,所谓黑箱,只是因为科学家们难以清楚地说明某个小齿轮在决定机器的输出时,具体扮演了什么角色。这可能会带来一些工程上的问题,例如在进行图像识别时,某些图像元素的改变,会让 AI 将乌龟识别为来复枪,而工程师们可能难以找到具体是哪些齿轮坏掉了。但这并没有神秘性。机器的工作目标,牢牢地掌握在工程师的手中。

 

这也就是为什么,当前的 AI 系统几乎都是“专用人工智能”,而我们距离发明乌鸦水平的“通用人工智能”还非常遥远,大概率也不是基于深度学习技术。

 

2


为何人类会感叹机器有“灵性” ?


但这些是对当前 AI 实现原理的解释,并不能解释人们为什么会认为AlphaGo有某种“棋风”和“大局观”。

 

如果我们把考察的范围扩大一些就会发现,人类本来就有一种将无意识的事物,看作有意识,或者拔高对方的意识水平的倾向,即所谓“泛灵论”倾向。这在世界各个文化的历史早期都普遍存在。在古人看来,打雷,刮风,是因为某个神灵发怒了。世间万物,尤其是那些自己会运动的事物,都是会思考,有意图地存在。

 

现代世界的机械论世界观,在近代启蒙运动和科技发展的巨大影响下,逐步成为大多数人的“标配”。我们不再相信某个自然现象背后的原因是某种灵魂的意图,而是诉诸物理实体的运动和因果性。

 

即便如此,泛灵论的心理倾向并不会自动消失,而是在现代体现为心理学意义上的“泛拟人”的倾向。事实上,人类漫长进化而来的大脑认知机制让我们格外地善于“看脸色”,善于共情。人们甚至能从杂乱的碎石或林间的阴影看出人脸来,难免会本能地觉得各处都有灵魂存在。人们会对自己的猫狗说话,不只是发出指令,而是充满了复杂的请求、抱怨、责备等等——哪怕他们明知猫狗无法理解那么复杂的话语。

 

事实上,由于人的这种泛拟人倾向,无需多么高超的自然语言处理技术,AI 也能在非常特定的情形近乎通过图灵测试。早在1960年代,只会非常简单地识别和替换特定关键词的对话心理咨询师 AI 系统 ELIZA,就能获得人类用户的信任。许多人甚至会对这个非常简单的 AI 系统倾诉,和“她”聊上几个小时。ELIZA 实质上是利用了人的某些认知和心理特性,以及对心理咨询场景的预期“蒙混过关”。这实际上和魔术很相似。

 

ELIZA 和人类的聊天记录

 

除了“泛灵论”的因素,“当局者迷”也是一个对人们为何会高估AI的意识水平的解释。对于和 AlphaGo 对弈的棋手来说,他们难免会以对待人类棋手的心境去理解对方的棋路,毕竟这是他一直以来所习惯的思维方式。站在局外,我们或许可以正确而轻巧地说,AlphaGo 的这些棋路不过是算法的结果,但这种评论不足以回应棋手主观的体验。他确实感受到了 AlphaGo 某步妙招的“天才”之处,从而被对手“慑服”。即便他也能同时承认,这步棋是算法和大规模计算的结果,但这种解释未必能消解他直观体验到的震撼。

 

更进一步,我们也要认识到,对事物的描述是有层级的。王球举了一个例子来说明这一点:如果我们的电脑坏了,别人问我们,“电脑为什么坏了?”我们会解释说,“因为电脑进水,主板烧坏了。”这是一个合情合理的描述。理论上,如果我们熟知计算机硬件和半导体物理,并且对这台进水的电脑进行了彻底的调查,也可以从水如何在物理层面影响电脑工作进行描述。“主板烧坏了”和“特定线路的电学特性发生了改变”是两个不同层级的描述,前者“功能层面”,描述某种功能的实现,后者是“物理层面”,也可理解成实现这项功能的物理基础。同样的功能,可能由不同的物理基础来实现。在有效沟通的意义上,我们不能说功能层面的“主板烧坏了”是错误的。

 

事实上,我们的描述层级往往分成“物理层面”、“功能层面” 和“意向层面”。对于自然事物,我们通常会在前两个层面进行描述。对于人类的事务,则往往在意向层面描述。KTV太吵闹,朋友聚会时我独自先离开了。人们大概不会将其解释为“噪音让我的神经系统产生了如此这般的反应,最终让脚迈出了大门”,而是会直接说“太吵了,我不想待了”。

 

对于围棋棋手来说,使用一种意向层面的语言,描述下棋时应该做什么,不应该做什么,显然也是合情合理的。唐代王积薪《棋诀》一书提出的围棋十诀是:“一不得贪胜;二入界宜缓;三攻彼顾我;四弃子争先;五舍小就大;六逢危须弃;七慎勿轻速;八动须相应;九彼强自保;十势孤取和。”这些话语并非在算法层面描述围棋,甚至还带有某种生活哲学的寓意,但却是人类沟通,交流和学习围棋所不可或缺的。尤其是,王球提到,“灵气”,“大局观”,“围棋真理”等等说法,也让棋手们将围棋看作一种更有价值的事业。

 

因此,虽然 AI “实际上”没有人性和灵气可言,但至少从心理机制上,我们可以理解人们为何偏好于将其看作有灵气的;从有效沟通和描述的角度,我们也可以看到用“意向层面”去描述 AI 系统的意义。

 


3


AI 仅仅是“看上去”有人性,

就不会带来现实的社会影响吗?

 

上文中,我们总体上理解了为何人类会认为“当前 AI 系统具有‘人性’,而不是普通的工具和机器”的想法。但这并不意味着,AI 仅仅是“看上去”有人性,就不会带来任何的社会影响。

 

刘哲表示,人们现在已经会对虐待“机器宠物”的行为表现出类似虐待真正猫狗的愤慨,例如网上确有“讨伐”波士顿动力(Boston Dynamics)测试人员“虐待” 他们开发的“机器狗”的言论

 

我们也可以想象这样的场景:一个人在使用机器人服务员的饭店点餐时,因为机器人无法理解他的命令,他便对这个机器人大打出手。在旁人看来,这种行为很可能比他砸碎一个普通餐厅的点菜平板电脑,要更加的 “残忍”。事实上,旁人很可能据此判断,他在类似情形下面对真人服务员,也会对其大打出手。从而,认定他是一个道德上有问题的人。

 

换言之,虽然我们可能不会严肃地认为机器人或者 AI 具有“人权”,但却可能会接受,“虐待”机器人,会损害我们自己的道德品质。

 

我们或许可以从科学的角度解释机器人的工作原理,也可以从心理学角度解释人们为何会移情于人形物体,但这种同情机器人的心理反应本身是不可忽视的。刘哲认为,这不是简单的归结于大众传媒和科幻文化误导就能消解的问题,也不是通过对公众进行科普就可以简单回避。

 

事实上,我们可以将对机器人和 AI 的移情,类比到动物保护领域。我们保护动物,尤其是保护猫狗等伴侣动物,和其他与我们在生物学上接近的哺乳动物,并不需要我们从生物学上认识到动物和我们在基因上的同源,也不基于我们通过神经科学和行为科学实验了解到猫狗的智能水平有多高。

 

上海交通大学哲学系教授蔡文菁认为,“动物权利的基础,在于动物具有情感和意识是我们的直观,而不是基于对其背后生物学机制的科学认识”。她指出,一只小猫因为痛苦而呻吟的时候,我们能共情,能直感到它的痛苦。相反,一只龙虾因为被滚水煮而痛苦,我们就很难获得 “直观”,从而也较少关注龙虾的动物福利。或许有人会强调,龙虾的某种生理构造,让它们也会感受到痛苦。但客观的痛苦和动物保护之间是否有逻辑关系,却也是一个没有定论的问题。

 

除非对 AI 算法原理的科普能消解公众对机器人和 AI 的“直观”,否则呼吁机器人福利,甚至机器人权利保护,就不是一个完全荒谬的行为。

 

对此,北伊利诺伊大学(North Illinois University)的 David Gunkel 博士,提出了思考机器人伦理学的关系模型(relational model)。在他看来,我们与其他存在互动时,无论是和动物,人类,自然环境,还是机器人,重要的不是它们究竟是什么,而是我们和它们建立了怎样的关系。相应的,我们对它们的道德责任,也来自于它们如何向我们呈现自身。如果人们越来越倾向于像对待同事,同学,朋友那样去对待机器人,机器人就应该享有越来越多类似人所享有的权利。在《中国机器人伦理标准化前瞻(2019)》中,作者也呼吁建立一种“去人类中心主义”的,基于交互关系的伦理学,来为未来可能会越来越普遍的人机共存社会作准备。

 


4


更现实的问题不是 AI 权利保护,

而是保护人类不被 AI 欺骗

 

不过,我们强调目前的 AI 技术让我们“直观”到 AI 的人性,并非真的为了保护 AI,而更多是为了保护人类自身。除了上文提到的,虐待机器人可能会损害人类自己的道德品质,更大的问题是过分拟人的、被大公司作为商品创造出来的机器人,可能会对我们造成更加实际的伤害和控制。

 

目前,已有研究人员使用机器狗和自闭症儿童进行交互治疗。研究发现,自闭症儿童更愿意同机器狗进行口头和其他类型的交互。然而,如果这种自闭症儿童最终只愿意和机器交互,对于治疗而言,“是一场灾难”。对此,刘哲表示,应该避免 AI 和机器人不必要的过度拟人,以免造成用户心理依赖和成瘾。

 

《中国机器人伦理标准化前瞻(2019)》提到,已有问卷调查表明,许多受访者希望和自闭症患者交互的机器人能够得到治疗师的指导,能够被远程控制,而不是完全自动化[1]。也有伦理学家忧虑,过分拟人的机器人陪护,是在为患者提供虚假的朋友[2]。即便是善意的,这也是一种欺骗。
 
再者,考虑到这些机器人往往作为商品被设计生产出来,难免也内置了商业牟利的逻辑。我们可以想象,未来的机器宠物,可能运用了高超的语言处理和运动控制技术,以至于能够更萌,更善于撒娇,从而,促使主人购买更多的机器宠物外设,食物,装备,一如目前网络游戏中已经出现的“氪金”模式。

 

在可见的未来,机器人的“人性”或许只是我们的“幻觉”。但我们的“人性”被利用或滥用,却无疑是更可能发生的事情。

 


4


未来的 AI,会拥有完整的“人性”吗?


虽然当前的 AI 技术所构造的“人性”,本质上更多是一种“魔术”或“当局者迷”,称之为“拟人感”或许比“人性”更加准确。但未来,随着科技发展,几十年甚至几百年后,AI 是否可能拥有“真正的人性”?

 

更进一步,从心理和文化层面来说:如果 AI 归根结底是由人类所造,而非如其他生命一样“自然”生成,是否就永远会被人类视作“二等公民”?

 

《银翼杀手》中著名的“雨中演讲”片段

 
人造之物,如何成为人?这些问题可以说是许多关于AI,机器人和克隆人的科幻作品的“母题”。在雷德利·斯科特的《银翼杀手》中,人类创造的复制人在太空殖民地经历了史诗般的战斗,勇气与德性可能远超过人类,却不断被人类猎杀,只能“消逝在时间里,就像雨中的泪水”。在斯皮尔伯格的《人工智能》中,机器人小男孩大卫,被“养父母” 抛弃后,不断寻找 “蓝仙子”,以便成为真正的人类小孩,回到父母的怀抱。在美剧《西部世界》中,供人类取乐的 AI 机器人们,在一次次“虐待”中觉醒,开始反抗人类主人,反叛自己的“奴隶身份”。
 
显然,重点不在于探讨这些科幻作品中的 AI 的技术可能性,而是考察科幻文化所反映的人类文化潜意识。清华大学科学史系教授吴国盛在其《技术哲学讲演录》中指出,人工智能的英文 Artificial Intelligence (AI) 中,“artificial” 又有 “虚假” 之意。“这似乎反映出人类对自己的创造物的某种不自信”,吴国盛写道。是否因为 AI 是人类创造的,人类就不会认可 AI 具有完整的人性,无论它们表现得多么拟人?
 
这牵扯到我们说的“造”是什么意思。在人类的自然生育中,受精,胚胎发育和新生儿的成长,是一个母亲无法也不需要理解的过程,但我们似乎能理解 AI 制造过程的每个细节。这种高分辨率的理解,似乎妨碍了我们将 AI 看做与我们同级别的智能。
 
不过,在徐英瑾看来,“未来真正智能的人工智能就不可控程度而言,会远远的超过现在的深度学习……未来的机器人是被设想成能够跟着环境的互动,在无监督的情况下进行自主学习。它处于怎样的环境,也是不能够完全控制的,所以它将会形成怎样的 ‘机器人人格’,你也只能进行非常粗线条的控制,类似于父母对于孩子的性格,只有极为粗线条控制力”。如果控制过多,就会失去灵活性。“既要马儿跑,又要马儿不吃草,是不可能的。”
 
进一步,如果我们再更高水平上去理解人类道德,就会意识到,虽然人权被默认赋予每一个自然人,但我们和他人的道德关系,却绝不只是取决于我们自己意志,也取决于他人的意志。我们甚至可以把“道德主体”,定义为“有能力改变和他人的关系” 的存在。在这个框架下,无论我们多么能共情自己的机器宠物,将其视作家庭成员,只要它无法主动改变和我们的关系,它就只是我们的“玩物”。哪怕未来的人类极其富有同情心,将权利赋予AI,但我们恐怕仍然不能将这种“权利”看作 AI 具有完整人性的象征。
 
因此,按照父母对待孩子的方式来理解未来的高级 AI,甚至更加凸显了人类对于 AI “获得人性”的心理障碍。这就好像父母对孩子,总是处于“既希望他/她独立,又希望能控制他/她”的矛盾心情中。
 
当然,或许“AI 反叛人类”是很刻板的想法。在蔡文菁看来,AI 或许能够像小孩一样,通过“表现为超出我的预料,制造惊喜,提出自己的理由等等”,来让我们感受到他的主体性,如同儿童的成长过程。
 
千年之后,人类的科技高度发达,我们是否能在由我们制造的机器具备完整的人性时,接受他们的人性?这个问题或许会永远处于争论之中。


 参考资料
1. S.G. Tzafestas, Roboethics: A Navigating Overview, 2016
2. M. Coeckelbergh et al, A Survey of Expectations About the Role of Robots in Robot-Assisted Therapy for Children with ASD: Ethical Acceptability, Trust, Sociability, Apperance, and Attachment".

 

 制版编辑 | 皮皮鱼





点击阅读原文,查看知识分子网站更多内容。

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存